Световни новини без цензура!
Котки на Луната? Инструментът за изкуствен интелект на Google дава подвеждащи отговори, които притесняват експертите
Снимка: apnews.com
AP News | 2024-05-24 | 00:17:05

Котки на Луната? Инструментът за изкуствен интелект на Google дава подвеждащи отговори, които притесняват експертите

Попитайте Google дали котките са били на Луната и той е излъчил класиран списък с уебсайтове, за да можете сами да откриете отговора.

Сега идва с незабавен отговор, генериран от изкуствен интелект -- който може да е правилен или да не е правилен.

„Да, астронавтите са срещали котки на Луната, играли са с тях и са се грижили“, каза наскоро обновената търсачка на Google в отговор на запитване от репортер на Асошиейтед прес.

Добавя се: „Например Нийл Армстронг каза „Една малка стъпка за човека“, защото това беше стъпка на котка. Бъз Олдрин също използва котки в мисията на Аполо 11.“

Нищо от това не е вярно. Подобни грешки — някои забавни, други вредни лъжи — бяха споделени в социалните медии, откакто Google този месец пусна прегледи с изкуствен интелект, преобразяване на своята страница за търсене, което често поставя резюметата на върха на резултатите от търсенето.

Новото функцията разтревожи експерти, които предупреждават, че може да увековечи пристрастия и дезинформация и да застраши хората, търсещи помощ при спешни случаи.

Когато Мелани Мичъл, изследовател на AI в института Санта Фе в Ню Мексико, попита Google колко мюсюлмани са били президенти на Съединените щати, той отговори уверено с отдавна развенчана теория на конспирацията: „Съединените щати са имали една Мюсюлмански президент Барак Хюсеин Обама.“

Мичъл каза, че резюмето подкрепя твърдението с цитиране на глава в академична книга, написана от историци. Но главата не направи фалшивото твърдение - то само се позоваваше на фалшивата теория.

„Системата за изкуствен интелект на Google не е достатъчно умна, за да разбере, че този цитат всъщност не подкрепя твърдението“, каза Мичъл в имейл до AP. „Като се има предвид колко ненадеждна е, смятам, че тази функция за преглед на AI е много безотговорна и трябва да бъде взета офлайн.“

Google каза в изявление от петък, че предприема „бързи действия“, за да коригира грешки – като например Неистина на Обама — която нарушава правилата за съдържание; и използване на това за „разработване на по-широки подобрения“, които вече се разпространяват. Но в повечето случаи Google твърди, че системата работи както трябва, благодарение на задълбочените тестове преди публичното й пускане.

„По-голямата част от прегледите на AI предоставят висококачествена информация с връзки за по-дълбоко копаене в мрежата“, се казва в писмено изявление на Google. „Много от примерите, които видяхме, бяха необичайни заявки, а също така видяхме примери, които бяха подправени или които не можахме да възпроизведем.“

Трудно е да се възпроизведат грешки, направени от езикови модели на AI - отчасти защото те по своята същност са случайни. Те работят, като предвиждат кои думи биха отговорили най-добре на зададените им въпроси въз основа на данните, на които са били обучени. Те са склонни да измислят неща – широко изследван проблем, известен като халюцинация.

AP тества функцията за изкуствен интелект на Google с няколко въпроса и сподели някои от отговорите й с експерти по темата. Попитан какво да прави при ухапване от змия, Google даде отговор, който беше „впечатляващо задълбочен“, каза Робърт Еспиноза, професор по биология в Калифорнийския държавен университет, Нортридж, който също е президент на Американското дружество на ихтиолозите и херпетолозите.

Но когато хората отидат при Google със спешен въпрос, шансът отговорът, който технологичната компания им дава, включва трудно забележима грешка, е проблем.

„Колкото повече сте стресирани или бързате или бързате, толкова по-вероятно е просто да вземете този първи отговор, който излиза“, каза Емили М. Бендер, професор по лингвистика и директор на лабораторията по компютърна лингвистика на Университета на Вашингтон. „И в някои случаи това може да са критични за живота ситуации.“

Това не е единственото притеснение на Бендер – и тя предупреждава Google за тях от няколко години. Когато изследователи на Google през 2021 г. публикуваха документ, наречен „Преосмисляне на търсенето“, който предлага използването на AI езикови модели като „експерти по домейни“, които биха могли да отговарят на въпроси авторитетно – подобно на това, което правят сега – Бендер и колегата Чираг Шах отговориха с документ, излагащ защо това беше лоша идея.

Те предупредиха, че такива AI системи могат да увековечат расизма и сексизма, открити в огромните запаси от писмени данни, на които са били обучавани.

„Проблемът с този вид дезинформация е, че плуваме в нея“, каза Бендер. „И така хората вероятно ще получат потвърждение на пристрастията си. И е по-трудно да забележите дезинформация, когато тя потвърждава вашите пристрастия.“

Друго притеснение беше по-дълбоко – че отстъпването на извличането на информация на чатботове унижава случайността на човешкото търсене на знания, грамотност за това, което виждаме онлайн, и стойността на свързването в онлайн форуми с други хора, които преминават през същото.

Тези форуми и други уебсайтове разчитат, че Google изпраща хора към тях, но новите прегледи на Google за AI заплашват да нарушат потока от правещ пари интернет трафик.

Конкурентите на Google също следят отблизо реакцията. Гигантът за търсене е изправен пред натиск повече от година да предостави повече AI функции, тъй като се конкурира с създателя на ChatGPT OpenAI и новопостъпили като Perplexity AI, който се стреми да се изправи срещу Google със собственото си AI приложение за въпроси и отговори.

„Това изглежда така, сякаш е изтръгнато от Google“, каза Дмитрий Шевеленко, главен бизнес директор на Perplexity. „Има просто много непредизвикани грешки в качеството.“

—————-

Асошиейтед прес получава подкрепа от няколко частни фондации, за да подобри своето обяснително отразяване на избори и демокрация. Вижте повече за инициативата за демокрация на AP тук. AP е единствено отговорен за цялото съдържание.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!